Der Wahlerfolg der Rechten und Rechtsextremen basieren auf einer Anti-Einwanderungs- und Anti-Flüchtlingsrhetorik. Nun sind digitale Technologien wie Spracherkennungstechnologie oder Drohnen für die EU zentral geworden. Die Militarisierung der Grenzen wird über die Menschenrechte von Migrant*innen gestellt.
In den letzten zehn Jahren hat die Europäische Union einen bedeutenden Wandel vollzogen: Im Rahmen des sogenannten Migrationsmanagements wurde die Grenzsicherung immer weiter digitalisiert. Entsprechend sind digitale Technologien wie Migrationsprognosetools, Biometrie, Lügendetektoren, Spracherkennungstechnologie oder Drohnen für die EU zentral geworden für die Erkennung und Abwendung Gefahr geworden, die Migrant*innen und Fliehende für die "Sicherheit" und "Stabilität" Europas angeblich darstellen. Der jüngste Wahlerfolg der Rechten und Rechtsextremen bei der EU-Wahl 2024 basiert auf einer Anti-Einwanderungs- und Anti-Flüchtlingsrhetorik. Er zeigt, dass die Themen “nationale Sicherheit” und “Grenzsicherung” im Mittelpunkt der politischen Agenda vieler EU-Mitgliedstaaten stehen. Eine solche Rhetorik, die die Militarisierung der Grenzen über die Menschenrechte von Migrant*innen und Menschen auf der Flucht stellt, erzeugt einen starken politischen Druck, digitale Technologien zu nutzen und weiter zu entwickeln. In der Regel dienen sie der Abwehr von unerwünschter Migration – also einer Migration, die im politischen Diskurs als Sicherheitsgefahr und/oder Belastung für den Staat wahrgenommen wird. Menschenrechte spielen hier, wenn überhaupt, eine untergeordnete Rolle.
Seit 2007 hat die Europäische Kommission über drei Milliarden Euro in die Erforschung von digitalen Grenzsicherungssystemen investiert. Die COVID-19-Pandemie hat den Bedarf an kontaktlosen Migrationsmanagement-Tools zusätzlich verstärkt. Laut dem Europäischen Migrationsnetzwerk verwendet die große Mehrheit der EU-Mitgliedstaaten inzwischen biometrische digitale Identitätsdokumente und Aufenthaltstitel für Angehörige von Drittstaaten mit dem Ziel, die nationale Sicherheit zu erhöhen oder den Verwaltungsprozess zu vereinfachen. Sechs EU-Mitgliedstaaten – darunter Deutschland, die Niederlande, Ungarn und Litauen – nutzen die digitale Gesichtserkennung, um Identität und Staatsangehörigkeit von Menschen festzustellen und vermeintlichen Betrug zu verhindern. Darüber hinaus hat die EU massiv in den Ausbau der Europäischen Grenz- und Küstenwache, auch bekannt als FRONTEX, investiert, was eine verbesserte Zusammenführung von Daten in der EU und die Überwachung des zentralen und östlichen Mittelmeers mithilfe von militärischen Drohnen erlaubt. Und in Deutschland läuft gegenwärtig ein vom Bundesministerium für wirtschaftliche Zusammenarbeit und Entwicklung finanziertes Forschungsprojekt, das ein KI-Werkzeug zur Vorhersage und Bewertung irregulärer Migrationsströme nach Deutschland entwickeln soll.
Eine neue politische Landschaft: Die „EU-Verordnung über Künstliche Intelligenz“ und der neue „Pakt zu Migration und Asyl“
Dieser verstärkte Einsatz digitaler Technologien hat die Art und Weise, wie Grenzen konzipiert und gesetzlich geregelt und Migrationsbewegungen erfasst und überwacht werden, unwiderruflich verändert. Tatsächlich muss dieser Trend zur Digitalisierung der Grenzen auch vor dem Hintergrund zweier kürzlich verabschiedeter EU-Gesetze betrachtet werden – dem neuen “Pakt zu Migration und Asyl” (im Folgenden: „EU-Migration-Pakt“) und dem “EU-Verordnung über Künstliche Intelligenz” (im Folgenden: „EU-KI-Verordnung“). Letzteres reguliert den Einsatz künstlicher Intelligenz innerhalb der EU. Es wurde am 21. Mai 2024 vom Rat der Europäischen Union angenommen. Es ist bisher das weltweit erste umfassende KI-Gesetz. Zwar stuft das “EU-KI-Gesetz” Technologien der künstlichen Intelligenz im Migrationsmanagement als "hochrisikoreich" ein, doch es legt nicht fest, wie der Einsatz von KI-Technologien im Migrations- und Asylkontext kontrolliert und überwacht werden soll. Solche Lücken schaffen Raum für Menschenrechtsverletzungen. Denn sie höhlen das Recht auf Freizügigkeit, Nichtdiskriminierung und den Asylantrag aus. Außerdem verletzen sie den Schutz des Privatlebens und personenbezogener Daten.
Nun muss das EU-KI-Gesetz auch in Zusammenhang mit den politischen Bestrebungen gesehen und diskutiert werden, die im neuen “Pakt zu Migration und Asyl” festgelegt sind. Dieser wurde am 14. Mai 2024 vom Rat der EU angenommen. Er zielt darauf ab, das Verfahrensmanagement in Sachen Asyl in der EU zu rationalisieren und den Asylprozess durch die erweiterte Erfassung biometrischer Daten von Migrant*innen, einschließlich Gesichtsbildern und deren automatischen Austausch zu beschleunigen. Festgelegt wurde nun eine Vorprüfung an den EU-Außengrenzen, die verschiedene Sicherheitschecks vorschreibt und die Möglichkeit eröffnet, KI-Technologien bei der Entscheidungsfindung einzubeziehen. Diese biometrischen Daten, die in EU-Einwanderungsdatenbanken (z.B. Eurodac oder das Schengeninformationssystem) registriert werden, werden mit großen internationalen und EU-Datenbanken wie Europol und Interpol abgeglichen. Ziel ist es festzustellen, ob die Person "ein Risiko für die nationale Sicherheit oder öffentliche Ordnung darstellt".
Die Produktion von Verwundbarkeit und das koloniale Erbe des digitalen Grenzmanagements
Angesichts des zunehmenden globalen Interesses und der Nutzung von KI für die Grenzkontrolle, wies die ehemalige UN-Sonderberichterstatterin (2017-2022), Tendayi Achiume, darauf hin, dass Migrationsprognosen und Einwanderungstechnologien "ernsthafte fremdenfeindliche und rassistisch diskriminierende Konsequenzen für Flüchtlinge, Migranten und Staatenlose haben können". In ihrem Bericht von 2020 schreibt sie:
[…] governments and non-State actors are developing and deploying emerging digital technologies in ways that are uniquely experimental, dangerous and discriminatory in the border and immigration enforcement context. By doing so, they are subjecting refugees, migrants, stateless persons and others to human rights violations, and extracting large quantities of data from them on exploitative terms that strip these groups of fundamental human agency and dignity.
Achiume argumentiert, dass die Digitalisierung des Grenzmanagements häufig mit anderen diskriminierenden Formen der Digitalisierung Hand in Hand geht. Dadurch würden neue Formen der Überwachung geschaffen und noch mehr Menschen noch schwerer verletzt. Und es stimmt ja: Migrant*innen und Menschen auf der Flucht sind aufgrund ihrer Vertreibung und ihres Lebens fern der Heimat ohnehin verwundbar. Stets unterliegen sie mehreren Ebenen der Kontrolle, die in der Regel darauf abzielt, ihre Mobilität zu kriminalisieren. In der Folge wird ihre Privatsphäre beschädigt und es kommt zu zahlreichen willkürlichen Inhaftierung, Festnahmen oder Abschiebungen.
Dabei müssen wir das koloniale Erbe dieser technologischen Fortschritte erkennen. Denn die Nutzung von KI durch Regierungen und transnationale Unternehmen, die im Bereich des Migrationsmanagements tätig sind, verstärkt bestehende systemische Ungleichheiten und Gewalt entlang von Race, Ethnizität, Geschlecht und Klasse. Dass neue Technologien die Arbeit der Vergangenheit fortsetzen, wird als “Technokolonialismus” bezeichnet – ein Begriff, der von Professorin Mirca Madianou geprägt wurde. So zeigt sie u.a. auf, welche Rolle die Datenerhebung und digitale Innovation bei der Aufrechterhaltung von Kontrolle und Überwachung von geflüchteten Menschen spielen und letztendlich Ungleichheiten weltweit zementieren.
Zum Beispiel lässt sich an der Geschichte des Fingerabdrucks ablesen, wie koloniales Denken und Handeln in die heutigen Technologien eingewandert ist. Inzwischen hat sich die Abnahme eines Fingerabdrucks zu einem modernen biometrischen System entwickelt. Etabliert wurde er Mitte des 19. Jahrhunderts von den Brit*innen als koloniales Kontrollinstrument in Indien. Heutzutage wird die Abnahme eines digitalen Fingerabdrucks und die damit verbundenen Technologien an den EU-Außen Grenzen und während des Asylverfahrens eingesetzt. Noch immer dienen sie demselben Zweck, nämlich der Kategorisierung und Kontrolle, insbesondere von nicht-westlichen Körpern.
Ganzheitliches Verständnis von Grenzsicherung nötig
Es ist klar, dass die Digitalisierung von Grenzen, wie jede andere Form der Kontrolle, sich über historische Ungleichheiten hinweg entwickelt und von ihnen bis heute zehrt. In diesem Sinne gibt es keine prinzipiell neuen Diskriminierungen, auch wenn zum Teil andere Menschen oder Bevölkerungsgruppen betroffen sind. Zum Beispiel wirkt sich die Art und Weise, wie KI zur Kontrolle von Grenzen eingesetzt wird, auf rassisch marginalisierte Bevölkerungsgruppen, Frauen und LGBTQ-Asylsuchende auf sehr unterschiedliche Weise aus. Die KI-Systeme, die zur Überprüfung der Legitimität von Asylanträgen verwendet werden, sind häufig nicht darauf trainiert, Geschlechtervielfalt jenseits des binären Mann-Frau-Systems oder sexuelle Vielfalt jenseits der Heterosexualität zu erkennen. Dies kann zu einer Fehlklassifizierung von Asylsuchenden aufgrund der Ungenauigkeit oder Eindimensionalität der zu ihrer Identifizierung verwendeten Systeme führen, die daraufhin möglicherweise einen Aufenthalt verweigern. Darüber hinaus haben Studien gezeigt, dass Gesichtserkennungssysteme bei Frauen und People of Color deutlich höhere Fehlerquoten aufweisen, was zu unrechtmäßigen Inhaftierung oder Einreiseverweigerung führen kann. Schließlich erfordern die meisten digitalen Tools eine umfangreiche Datenerfassung, um zu funktionieren. Diese eröffnet eine Reihe weiterer digitaler Gefahren, insbesondere für Personen, die bereits eine verwundbare soziale Position einnehmen. Im Fall von Asylsuchenden kann beispielsweise die Offenlegung ihrer Daten aufgrund ihres oft unsicheren rechtlichen und finanziellen Status zu Verfolgung oder Diskriminierung in ihren Heimatländern führen.
Insgesamt ist daher notwendig, digitale Grenztechnologien im Zusammenhang mit bestehender sozialen Ungerechtigkeit zu verstehen. Wir brauchen ein ganzheitliches Verständnis der Folgen einer digitalisierten Grenzsicherung.